El sitio web de la UCLM utiliza cookies propias y de terceros con fines técnicos y de análisis, pero no recaba ni cede datos de carácter personal de los usuarios. Sin embargo, puede haber enlaces a sitios web de terceros, con políticas de cookies distintas a la de la UCLM, que usted podrá aceptar o no cuando acceda a ellos.

Puede obtener más información en la Política de cookies. Aceptar

Engaños de la IA: cuando aporta fuentes reales pero inventa su contenido

08/01/2026
Share:  logotipo Twitter

Engaños de la IA: cuando aporta fuentes reales pero inventa su contenido

08/01/2026

José Luis González-Geraldo, Universidad de Castilla-La Mancha

“Alucinar” no es un concepto muy exacto cuando se aplica a la inteligencia artificial; puede provocar controversias, tanto por su innecesaria antropomorfización como por su engañosa concreción. Por eso, quizá sería más correcto llamarlas “falsificaciones de información” o simples “confabulaciones”. Sin embargo, esta terminología ha calado para identificar aquellas generaciones de texto que, tras comprobarse, se demuestran erróneas.

Asumiendo una postura ecléctica en la que es más adecuado adoptar las tecnologías que adaptar(se) a ellas, desde el Grupo de aprendizaje en Inteligencia Artificial de la Universidad de Castilla-La Mancha (GaIA), hemos supervisado desde hace años lo que la inteligencia artificial generativa nos ofrece, sobre todo, dentro del ámbito educativo. Y, en especial, en el universitario.

Dentro de este terreno, nos encontramos con el problema de las citadas “alucinaciones” de la IA. Y un claro ejemplo que aterra al profesorado es la invención de fuentes bibliográficas, muy pertinentes y ciertamente bien referenciadas, pero completamente inexistentes.

¿Fraude involuntario?

Vaya por delante que el fraude por alucinación de IA no cae dentro de la categoría de plagio tradicional, sin entrar a debatir que, en efecto, el plagio engloba prácticas más complejas que el rudimentario corta-pega. El punto central de este asunto radica en admitir que la persona que usa la IA y comete fraude por alucinación no solo no es responsable de la autoría del texto generado, sino que ni siquiera ha supervisado y verificado su contenido.

Por desidia o inexperiencia, la IA ha pasado su filtro. Un filtro que, de haber sido constante y competente, no habría tenido problemas para detectar estas “alucinaciones”, pues son fácilmente identificables por un humano atento y experto.

Alucinaciones de segundo orden

Sin embargo, la cosa se complica cuando uno de esos chatbots no se inventa la fuente, sino que la usa de manera inadecuada. Es decir, cuando argumenta que en ella se afirma algo que no es cierto, el problema pasa a mayores. En este caso, las hemos bautizado como “alucinaciones de segundo orden”.

Así, nos encontramos con argumentos verosímiles que se encuentran respaldados por fuentes existentes –clásicas o recientes– perfectamente bien referenciadas. Nada, sobre todo desde el punto de vista estructural, nos hará dudar de ellas, a no ser que seamos verdaderos expertos en el tema en cuestión y, por supuesto, prestemos atención.

Este suceso no solo ha sido constatado en nuestros cursos de formación en IA, sino también experimentado en primera persona. No hace mucho recibí un artículo para revisar sobre IA en educación. Durante la revisión comprobé que la literatura utilizada era existente y relevante. Incluso me agradó encontrar un párrafo donde se citaba uno de nuestros trabajos.

Malos tiempos para revisores

Sin embargo, la alegría se tornó amarga sorpresa cuando señalaban aspectos específicos que no recordaba haber incluido. Confieso que, confuso, revisité nuestro propio artículo para confirmar lo que ya era más que una intuición: en efecto, estaba viviendo en primera persona las consecuencias de una de esas curiosas alucinaciones de segundo orden.

Llegados a ese punto, ¿quién me aseguraba que esto mismo no había pasado con otras referencias utilizadas? Huelga comentar el rechazo que emití en mi condición de revisor, evidentemente por fraude.

La conclusión es meridianamente clara, y también extrapolable: corren malos tiempos para los revisores –lo que incluye profesores, maestros y educadores de cualquier nivel y categoría– que no sean expertos en todas y cada una de las referencias de los artículos o de los trabajos que revisen y evalúen. Malos tiempos, en definitiva, para todas las personas, colectivos e instituciones que nos dedicamos a supervisar procesos académicos y de aprendizaje.

Nada nuevo bajo el sol, pues el fraude académico siempre ha existido, pero quizá nunca ha sido tan fácil y, hasta cierto, punto involuntario cometerlo. En manos de los autores queda hacer un uso responsable, humano y experto, siempre supervisado, de las herramientas que la tecnología –y la IA en especial– ponen a nuestro alcance. Nuestro progreso y nuestra credibilidad están en juego.The Conversation

José Luis González-Geraldo, Decano de la Facultad de Ciencias de la Educación y Humanidades. Coordinador del Grupo de aprendizaje en Inteligencia Artificial (GaIA). Departamento de Pedagogía. Teoría e Historia de la Educación. UCLM., Universidad de Castilla-La Mancha

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Volver